ChatGPT 的创新与局限,以及 AI 可以替代产品经理吗?
第一是像人类一样,融会贯通地理解信息,尤其是理解互相关联的信息,总结归纳,提炼要点。特德·姜对此的理解是,类似于信息的 JPG 有损压缩。从巨大的信息量里压缩出有代表性的关键部分。这也是无数 “专业人士” 的日常工作——在专业人士的知识图谱里,针对需求进行知识的提取与总结,返回给需求方。从某种意义上来说,AIGC 和专业人士都是进行 “知识的存取” 这项工作。
第二是通过对自然语言的理解,使用自然语言作为交互界面,输入自然语言提问,就能获取精确的答案,AI 试图理解你的本意来给出答案,相比关键词搜索更符合直觉,更接近人类的交流本能,尤其是能容纳比刻板的关键词更复杂的需求。以及输出专业答案时,也尽可能通过清晰易懂的自然语言来表达,将知识转译为普通人更容易理解的表达方式。
这两点叠加起来的化学反应,首先意味着人类获取知识的门槛,在搜索引擎基础上进一步降低,而效果又有飞跃。通过自然语言提问,在巨大的知识图谱内,获得 “知识的提取与转译” 这一项专业服务。Web2.0 带来了信息大爆炸,AIGC 带来了知识大爆炸。区别在于从信息整理为知识,将知识传递给用户的成本更低,渠道更便捷。
其次, AIGC 也带来了内容创作的大爆炸。相当大比例的内容(代码),仅仅是信息按标准逻辑的排列组合。这部分以 “传递信息” 为目的的内容生成,将被 AIGC 大面积替代。AIGC 在归纳表达上的能力超过了大部分普通人类。
那么,什么是 AIGC 力所不能及的事情呢?
AIGC 的运行强依赖语料,信源。对于那些无法提供优质信源的环境,比如说私有部署环境,不完整的信源将大大影响 AIGC 的精确度。如果信源来自公域,AIGC 将是相对可靠的,但私域还存在大量的隐性信息,碎片化信息。 AIGC 以自然语言进行对答的交互方式,让它的输出尽可能简短,意味着在回答时只能取最大公约数。最大公约数无法覆盖的多样性选择,广泛性选择,只能通过调整对话方式训练 AI 获取信息,用户成本可能高于传统搜索引擎。 AIGC 无法生成创造性的内容,创作与创造的区别是,后者更注重品味与想象力,而不是逻辑上的排列组合。(仅限 ChatGPT 这一类型,我对 AI 生成图像和音频还不了解) AIGC 无法进行复杂的价值判断。价值判断是一件非常个性化和主观的事情,AIGC 可以遵循主流的道德观,但也仅限于此,还有大量复杂的价值判断场景无法应对。 AIGC 无法处理不确定性。面对不确定性,它只能提出有限的思考角度。
因此,AIGC 会部分替代传统搜索引擎,更便捷地获取强确定性的,最好是有唯一正确答案的信息。并拓展过去认为搜索引擎做不到,做不好的应用场景,比如更复杂的提问;比如对信息进行排列组合生成内容,工整地按需传递信息。
但在私有部署中,由于信源质量的不稳定,AIGC 的应用会受到很大限制。在公域,AIGC 也难以应对多样性与广泛性的命题,更接近提供标准化答案的,覆盖面大到不可思议的百科全书。
由此衍生出一个话题,AI 在什么情况下可以替代产品经理?
我觉得,这样的未来在相当长的时间里不会出现。
首先,PM 工作中有大量的隐性信息,碎片信息。比如项目背景,竞品研究,管理者的偏好,协作方的诉求,这些信息都没有办法完整地线上化。无论丢失哪一样,都会带来不良结果。
其次,ChatGPT 的结果往往指向有着确定性的唯一正确解。这在 PM 工作中是件不常见的事情,我们频繁地和不确定性,和大量选择打交道,而选择本身又关系到大量的隐性信息。
最后,只要 “开会” 这件事存在,无论大会小会,AI 就没法替代人类去收集足够的信息来做判断。大量低质量的会议,我很难想象 AIGC 可以准确地理解与归纳,这时候人类的容错率反而更高。而人与人之间争执甚至扯皮的环节,更加是 AI 无法替代的天堑。
所以 AIGC 发挥效能的,更多是高质量信源的公域。哪怕私域部署,也是在高质量信源的基础上,完成 “信息的理解/归纳/表达” 这种拿手好戏。一旦牵涉到低质量信源,则 AIGC 全无头绪,更没法处理低质量沟通和负向沟通。越是高频和内部员工打交道的岗位就越安全,越是和内容/系统打交道的岗位就越危险。
AIGC 替代 PM 还没有影子,但替代一部分设计师和运营则近在眼前。
内容来自“用思考交换思考”的 PM 思辨社区「犬校」。
©2017-2023 犬校 2023 年开放加入,点击“阅读原文”,查看犬校加入方式。